Aktuality  |  Články  |  Recenze
Doporučení  |  Diskuze
Grafické karty a hry  |  Procesory
Storage a RAM
Monitory  |  Ostatní
Akumulátory, EV
Robotika, AI
Průzkum vesmíru
Digimanie  |  TV Freak  |  Svět mobilně
21.2.2005, Zdeněk Kabát, recenze
Po recenzi Radeonu X800XL se podíváme ještě na jeho pomalejšího bratříčka, který by měl oslovit hlavně cenou. Přestože to není případ grafických karet ASUS obecně, můžeme se podívat alespoň na výkon. Oproti "XL" verzi má Radeon X800 jen 12 pipeline a nižší frekvenci pamětí, ale zato jde skvěle přetaktovat! Chcete vědět více?
burosh | 21.2.200516:05
Jelikoz jsem si tuhle kartu zrovna koupil, stala me 9860 Kc, a zitra ji budu montovat tak tahle recenze prisla jako na zavolanou a jeji vysledky me docela potesili. Jiste, ze bych radsi XL ale nebyao k mani a ja musel koupit tuhle a jak koukam ani jsem neprohloupil a kdyz se podari OC, bude to fajn. Uz jsem se na to ptal v minule recenzi a zadnou kloudnou odpoved me nikdo nedal, zkusim to tedy znova. Jak je to s kvalitou obrazu ATI vz NV ???
Ja chtel ATI ­( a taky ji mam ­) prootze kdyz sem persel z GForce4 na RAdeona 9800 pro tak to byl obrovsky rozdil co se tyce kvality obrazu a zajima me jak si stoji nova rada v tomhle smeru a ani jedna recenze to nezminuje coz je skoda protoze jinak je velice kvalitni.
Odpovědět0  0
Igracek | 21.2.200516:13
kvalita obrazu u ATI je vyssi ale 6 rada Nvidie uz se kvalitou pomalu blizi...ale pora dto neni ono :)
Odpovědět0  0
burosh | 21.2.200516:17
To sem chtel slyset, diky :)
Odpovědět0  0
jesper (66) | 21.2.200511:16
Chcel by som vedieť na akej mašine sa robili testy MSI 6800GT, ktoré používate vo vašich recenziách, ja mám INNO3D 6800GT 256MB, A64 754 3 GHz, MB MSI K8N, 1GB ram APACER CLK 2.5, a na FW 71.25 mám v 3DMarku 05 skore 5146, keď ju pretaktujem na 6800 Ultra t.j. 400­/1100 mám skore 5556. Tak mi niekto prosím vysvetlite prečo máte vy skore 4598.

Pripájam sa k názoru, že AX800 je slepá vetva keď je tu X800XL za iné prachy.....
Inak recenzia super, to už ale začína byť pravidlo....
Odpovědět0  0
john.don | 21.2.200511:39
Se svou 6800LE mám v 3Dmarku výsledky přes 4000 ­(3800 před otevřením PIPEK­).
Takže to je opravdu divné. A to ještě nemám 64bit.

Na druhou stranu hrozně moc záleží na ovladačích.
Odpovědět0  0
jesper (66) | 21.2.200515:38
A keď si ich odomkol, nemal si na obraze artefakty ?

Apropo nejak si sa rozbehol s komentármi... :­-­)­)­)­))
Odpovědět0  0
john.don | 21.2.200516:12
6800LE má 16 pipelinek ale povolených je pouze 8.
A má 6 geometrických jednotek a povolené jsou pouze 4.

Podařilo se mi odemknout 1 další 4­(quad­) ­- tedy 12 pipek.
Geometrické jednotky jsem odemkl všechny bez problémů.
12 pipek je stejně dobrý výsledek. Stejně hraju všechno v 1024*768 ­(na 21­" monitoru :o­)­) tak to není tak kritické­) ­- menší počet polygonů než při 1600*1200

Lepší 12*6*256bitová sběrnice než 6600GT 8*4*128bitová sběrnice
Odpovědět0  0
jesper (66) | 21.2.200520:19
:o­)­)­) toto keby vedeli všetci užívatelia tak sa nemusia vyrábať shiťácke odnože a deriváty dobrých kariet :o­)­)­)­))
Odpovědět0  0
john.don | 21.2.200516:13
Mimochodem 6800GT.... co víc říct....SLINTY SLINTY SLINT!!!
Odpovědět0  0
Jacek666 | 21.2.200516:57
By me zajimalo jak je to mozny, ja mam normalni 6800, bez odemykani cca 3300, odemcena 16­/6 cca 3700, odemcena pretaktovana 375­/400 s bidou 4000 v 3DM05 v.1.2 s ovladaci 71.24. Mam A64 na 8*250, giga RAM v dualu. Cim to sakra muze byt?
Odpovědět0  0
jesper (66) | 21.2.200520:04
No ťažko povedať, kamarát si tiež kúpil MSI 6800 a keď všetko odomkol a pretaktoval mal skore v 3DM05 okolo 4300. Ale iba týždeň lebo potom mu zhorela. Akú máš dosku ? A pamäte 512x2 dual ? A skús ešte 71.25 tie sú narozdiel od 71.24 WHQL.
Odpovědět0  0
Jacek666 | 21.2.200520:49
Pameti 2x 512 dual CL2.5 ­/3 3 9 208MHz, deska MSI K8N Neo2 Platinum, karta GigaByte.
Odpovědět0  0
jesper (66) | 21.2.200521:12
no skus dať tie Forceware 71.25 a len na skušku sprav s pamätí 1 GB RAM a ak sa ti chce napíš ako to dopadlo...
Odpovědět0  0
Jacek666 | 25.2.200518:31
Tak sem pouzil posledni ovladace ­(71.81­), CPU A64@2295 MHz, 2x512 MB RAM v DualCh.212MHz DDR 2.5­/3­/3­/9, GF 6800 16­/6 = 3831, CPU A64@2295 MHz, GF6800 16­/6 @ 380­/850 = 4052. Tak ja uz nevim...
Odpovědět0  0
Stratos. | 21.2.200519:30
mas celkem malo bodu na to ze mas 3Ghz procik ja mam na X850XT Platinum a A64 3800+ 6300Bodů tomu rpociku by spis slusela naka nabusena ati X800­/X850 :­-­)
Hlavne vetsi vykon v PS 2,0
Odpovědět0  0
Ladis. | 21.2.200510:59
"Díky optimalizacím v Half­-Life 2 je již zvykem, že jsou ATi v této hře rychlejší.­"

To neni pravda, HL2 neni optimalizovan pro ATI ­(to je jen takovy blud­). HL2 je naprogramovan jako standardni DX9 hra a ATI jednodusse zvlada rychleji standardni DX9 aplikace. NVidia ma ale problemy s vykonem v DX9 hrach, proto se lidi od HL2, pote co to zjistili, rozhodli tam dat specialni veci pro karty NVidie ­(snizeni presnosti vypoctu v PS­), aby to na nich nebezelo prilis pomalu.

[odkaz, pro zobrazení se přihlaste]
Odpovědět0  0
lubos | 21.2.200511:19
Oba odkazy jsou temer 2 roky stare, a ten prvni pojednava jenom o FX5, coz je tedy davno pohrbena karta.
A clanek pojednava o novych Geforce6.
Tim neobhajuju ani nvidiu ani ati, jenom poukazuju na v podstate nepouzitelny argument.
Odpovědět0  0
john.don | 21.2.200511:43
Jo. Ladis zjevně ještě neslyšel o 6tkové řadě NVIDA.
Asi pořád ještě žije ve věku FXek.

Mimochodem FXka se opravdu moc nepovedla.
Ale to by se dalo stejně říct i o Radeonech 9600 a 9200 i 9500­(neodemčených­).
Odpovědět0  0
Ladis. | 21.2.200516:38
GF 6xxx maji ­"jen­" zdvojnasobenou rychlost PS jednotek nez FXka, ale pricina toho problemu je stejna ­- jen zas nebude nejakou dobu tolik videt.
Odpovědět0  0
mayday | 22.2.20052:28
No netvrdil by som, ze R9600 je nepodarok ako FX, je to mainstream a nemozes to porovnavat s 9800, alebo s FX5900... ...ako mainstream bola 9600 skvela karta... ...a hlavne je to najmenej hrejuca karta na trhu s pouzitelnym vykonom a to je pre niekoho tiez dost dolezite ­(pouzitie v SFF, pripadne moznost pasivneho chladenia)
Odpovědět0  0
Ladis. | 22.2.200511:05
Jj je to skvela karta ­- dobry vykon, podpora PS 2.0 a hreje minimalne ­- mam ji v podobe Mobility Radeonu 9600 ve svem notebooku ;­) V dobe, kdy jsem ho kupoval ­(pred 8 mesici­), nabizela NVidie jen FX5200 ­(desnej shit proti R 9600­), pac jeji lepsi cipy moc hrali ­(velka spotreba, problem s chlazenim v notebooku, ...­).
Odpovědět0  0
john.don | 21.2.200511:30
To co jsi napsal je kardinální blábol.
Nvidia je rychlejší v OpenGL a ATI zase v DX.
Nové karty Geforce 6xxx jsou stejně rychlé v DX jako karty ATI.

Propad výkonu v HL2 je prý způsobený tím, že specifikace DX říkají:
U Zbufferu má být použita 24bitová hloubka. Nvidia umí jen 16 nebo 32.
Ati zase umí jen 16 nebo 24 a neumí 32.

Spočítat 32 bitů je složitější než spočítat 24 a proto je Nvidia trochu pomalejší. Každopádně až přijde nástupce DX­(tedy ,,DX10­" tak specifkace má být upravena na standardních 32bitů. Proto tam Nvidia dala 32bitů. ATI budu muset asi udělat FAKE podporu pro 32bitů ­- pravděpodobně to bude počítat jen 24 bitů.­) Osobně si myslím že by stačilo hloubku Z bufferu počítat na 16bitů.

Viděl jsem někde na netu­(vygooglujte si to­) testy HL při 16bit. Zbufferu.
A ATI i NVIDI jeli úplně stejně rychle­(X800 a 6800­)­(+­/­- 3% až 5%­)

Nechci se hádat. Ale takhle nějak to má být.
Jinak Geforce FX a starší jsou opravdu pomalé v provádění DX9.
To je fakt.

A HL2 byl samozřejmě laděný na kartách ATI.
Je to logické. ATI tuhle hru slušně sponzorovala.
Kdyby jsi tomu nevěřil tak se koukni na stránky ATI:
,,ATI is the preferred Graphics Choice for Half­-Life® 2!­"
,,ATI and VALVE have teamed up to give you the chance to play Half­-Life® 2.­"

http:­/­/www.ati.com­/gitg­/promotions­/halflife2demo­/

Přeloženo: ATI and VALVE se spojili do týmu aby Vám dali šanci hrát HL2.
Odpovědět0  0
john.don | 21.2.200511:35
Jinak kdyby jsi nevěřil mě, tak věř GOOGLU?
http:­/­/www.google.com­/search?hl=cs&q=ati++Half+life+2&btnG=Hledat&lr=

A uvědom si, že se ke kartám ATI dával kupón na HL2....
Odpovědět0  0
john.don | 21.2.200511:46
ATI samozřejmě umí 32bitové barvy i textury.
Jiné to prý je s Zbufferem. ­(Jen kdyby mě chtěl někdo opravovat....)
Odpovědět0  0
DavesMan (187) | 21.2.200513:08
Tak to asi budu muset...
Specifikace DirectX 9 ­(nemyslím DX9c!­) říkají.
Karta musí umět pracovat s 96­-bitovou přesností ­(tj. 4 x 24­-bitů­). Tím se myslí přesnost pixel­-pipeline. To, že se NVIDIA rozhodla už u řady FX použít 128­-bitovou ­(4 x 32­) přesnost bylo jejich rozhodnutí, nikdo jim ho nenutil. BTW, co se týče Z­-Bufferu, karta ten 24­-bitovej MUSÍ sice umět ­(konkrétně 24 Z + 8 stencil!­) aby odpovídala DX9 specifikaci, ale nikdo už neřiká, že v tý konkrétní hře musí být použitý. Pokud budou mít vývojáři pocit, že jim stačí 16­-bit, nikdo jim to nebere. Každopádně 16­-bit JE málo, řikej si co chceš ­- u 2 hodně blízkých objektů a vzdálené kamery pak dochází k dosti nepříjemným artefaktům, protože jak určitě víš, Z­-Buffer není homogenní. Proto se vlastně pak vymyslel W­-Buffer.
Odpovědět0  0
john.don | 21.2.200514:52
Hm...člověk se vždy rád dozví něco nového...
Odpovědět0  0
Mirek Jahoda | 21.2.200512:47
Akorat, ze tady do toho uspesne michas barevnou hloubku a velikost Z­-bufferu a pritom ten rozdil 16, 24, 32 a souvisejiciho vykonu v DX9 aplikacich se tyka presnosti vypoctu ­(FP­) v pipeline. Tudiz to mas cele naprosto pomotane :­-­).
Odpovědět0  0
john.don | 21.2.200513:05
Nechci se hádat, ale to určitě ne.

AD:
http:­/­/www.ati.com­/products­/radeonx800­/specs.html
Protože tam se počítá s větší přesností.

Resp. u ATI:
DirectX® 9.0 Extended Pixel Shaders
128­-bit, 64­-bit & 32­-bit per pixel floating point color formats
Takže ty jednotky jsou daleko přesnější.

Ale obecně nejsem profesionál co se týká detailních znalostí přesnosti výpočetních jednotek v chipu.
Odpovědět0  0
john.don | 21.2.200513:13
Překlad níže: http:­/­/www.firingsquad.com­/news­/newsarticle.asp?searchid=5147&filterLevel=1&up=2&page=1

The significant issue that clouds current ATI ­/ Nvidia comparisons is fragment shader precision.



Nvidia can work at 12 bit integer, 16 bit float, and 32 bit float.
*** Nvidia pracuje na 12,16,32 bitové přesnosti.

ATI works only at 24 bit float.
*** Ati jede pouze na 24bitové přesnosti.

There isn­'t actually a mode where they can be exactly compared.
*** Teď není žádný mód, kde by bylo možné je přesně porovna.


DX9 and ARB_fragment_program assume 32 bit float operation, and ATI just converts everything to 24 bit.
DX9 programy ,,očekávají­" 32bitovou přesnost a ATI všechno konvertuje na 24bit.­(Tím si samozřejmě ulehčí práci.­)


For just about any given set of operations, the Nvidia card operating at 16 bit float will be faster than the ATI, while the Nvidia operating at 32 bit float will be slower.
*** Když Nivida jede na 16bitů, je rychlejší. Ale když jede na 32 je pomalejší.

Ale jak jsem už řek.
Nechci se hádat.
Odpovědět0  0
john.don | 21.2.200513:17
Tady: http:­/­/graphics.tomshardware.com­/graphic­/20040414­/geforce_6800­-12.html
Se píše:


# 64­-bit FP Frame Buffer Blending
(Tedy asi ta přesnost bude vyšší...ne?­)
Odpovědět0  0
Mirek Jahoda | 21.2.200516:21
Frame Buffer Blending do toho uz vubec nemichej :­-­)

To, co jsi postnul, ze to rikal Carmack je dobre, to, co rikas o par postu vyse, napriklad:
"U Zbufferu má být použita 24bitová hloubka. Nvidia umí jen 16 nebo 32.
Ati zase umí jen 16 nebo 24 a neumí 32.
....
Osobně si myslím že by stačilo hloubku Z bufferu počítat na 16bitů.­"
jsou nesmysly a hadat se nebudem, pac ted je vsecko jasny :­-)
Odpovědět0  0
john.don | 21.2.200521:30
Tak alespoň že to je někomu jasný :o­)
Já si to budu muset ještě přečíst....
Odpovědět0  0
john.don | 21.2.200511:58
Nechápu tě.

Proč tady píšeš takovou blbost?

Koukni se na FarCry, Doom3, PainKiller ­- to všechno jsou plně DX9 hry a Geforce 6xxx řady jsou tam stejně rychlé jako ATI.
Jediné kde jsou pomalejší je HL2.

Tak jak můžeš napsat:
,,ATI jednodusse zvlada rychleji standardni DX9 aplikace­"
nebo ,,NVidia ma ale problemy s vykonem v DX9 hrach­" nebo ještě lepší
,,To neni pravda, HL2 neni optimalizovan pro ATI ­(to je jen takovy blud­)­"

Kdyby to tak nebylo, tak by byla ATI v HL2 stejně rychlá jako v ostatních hrách. Pointa je, že tu máme jedninou hru kde ATI vystupuje z řady.
U ostatních se nic takového nekoná.
Tak mi řekni jak je to možné bez optimalizací pro ATI.
Odpovědět0  0
Ladis. | 21.2.200516:53
FarCry, Doom3 a PainKiller nejsou plne DX9 hry. Doom3 ty nejvice pouzivane efekty ma pro PS 1.x a jen par ­(ohledne castosti uziti­) je tam PS 2.0. FarCry ma PS 2.0 ­"jen­" vodu :­) a spekularni svetlo ma PS 1.x. PainKiller neznam. Oproti tomu HL2 pouziva PS 2.0 efekty o dost casteji. ­(Castost uziti PS 1.x efektu na NVidiich nehraje roli, protoze PS 1.x efekty se tam zpracovavaji ve fixed function pipeline.­) A ze zatim mame jedinou poradnou DX 9 hru? Vsak neboj, dalsi prijdou :­) ­(asi jsou uz nejake mezi mene znamyma, ted nevim­).
Odpovědět0  0
ALF | 21.2.20059:27
"...nějaká jistota, že se flash podaří a funkce bude taková, jaká má být. Problém bych viděl hlavně ve frekvenci pamětí, které by to nemusely zvládat­"

Na netu je spousta utilitek ktere umoznuji v souboru s biosem upravit referencni takty na pozadovanou uroven... viz u serie 9xxx, mozna bude chvilku trvat nez se dane programy upravi pro funcnost aj s X800­/XL ale urcite taky budou fachat :)
Odpovědět0  0
mayday | 21.2.20051:19
Karta je to sice pekna, ale kto ju kupi z tu cenu? Ved Sapphire X800XL sa da kupit pod 10 000,­-Kc.... ...vykon hore, cena dole....
Odpovědět0  0
steny007 | 21.2.20051:14
ohlášená ceny Ati X800 XL­/­- byly 299 resp. 199 dolaru, jesli se nepletu, zatim ale velky nedostatek na strane nabidky sroubuje cenu pekne nahoru, ale az se rozjede vyroba...
Btw. 1st :o)
Odpovědět0  0
Zajímá Vás tato diskuze? Začněte ji sledovat a když přibude nový komentář, pošleme Vám e-mail.
 
Nový komentář k článku
Pro přidání komentáře se přihlaste (vpravo nahoře). Pokud nemáte profil, zaregistrujte se pro využívání dalších funkcí.